9 research outputs found

    Evaluación perceptivo auditiva de voces degradadas y su correlación con medidas acústicas

    Get PDF
    The goal is to determine using acoustic measurements, which information is the most relevant to listeners at the time of categorizing the overall degree of dysphonia. Eight voice signals were chosen (4 female voices and 4 male voices). Each voice was perceptually evaluated through the item G of GRBAS scale by 10 experienced listeners and acoustically by aperiodicity, noise and chaos measures. The statistical study by discriminant analysis shows the importance of GNE, Jit and Lyapunov Jitter_cc as parameters and predictors of overall degree of dysphonia. The application of the k-means evidence there are features in the acoustic parameters that allow us to objectively group the voices studied with 100% accuracy for class 0,96% for class 2 and 79% for class 3. A greater number and variability of cases are need to verify those preliminary results.El objetivo es determinar utilizando las mediciones acústicas, qué información es más relevante para el oyente al momento de categorizar el grado general de disfonía. Se eligieron 8 (4 voces femeninas y 4 voces masculinas. Cada emisión fue evaluada auditivo perceptualmente a través del item G de la escala GRBAS por 10 oyentes experimentados y acústicamente mediante medidas de aperiodicidad, ruido y caos. El estudio estadístico de análisis discriminante señala la importancia de GNE, Jit y Jitter_cc y Lyapunov como parámetros predictores del grado general de disfonía.La aplicación del método k-means evidencia que existen rasgos en los parámetros acústicos empleados que permiten agrupar objetivamente las voces estudiadas con 100% de precisión para la clase 0, 96% a la clase 2 y 79% a la clase 3. Un mayor número y variabilidad de casos se necesita a fin de verificar los resultados preliminares

    The audiovisual structure of onomatopoeias: An intrusion of real-world physics in lexical creation

    Get PDF
    Sound-symbolic word classes are found in different cultures and languages worldwide. These words are continuously produced to code complex information about events. Here we explore the capacity of creative language to transport complex multisensory information in a controlled experiment, where our participants improvised onomatopoeias from noisy moving objects in audio, visual and audiovisual formats. We found that consonants communicate movement types (slide, hit or ring) mainly through the manner of articulation in the vocal tract. Vowels communicate shapes in visual stimuli (spiky or rounded) and sound frequencies in auditory stimuli through the configuration of the lips and tongue. A machine learning model was trained to classify movement types and used to validate generalizations of our results across formats. We implemented the classifier with a list of cross-linguistic onomatopoeias simple actions were correctly classified, while different aspects were selected to build onomatopoeias of complex actions. These results show how the different aspects of complex sensory information are coded and how they interact in the creation of novel onomatopoeias.Fil: Taitz, Alan. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Física de Buenos Aires. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Física de Buenos Aires; ArgentinaFil: Assaneo, María Florencia. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Física de Buenos Aires. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Física de Buenos Aires; ArgentinaFil: Elisei, Natalia Gabriela. Universidad de Buenos Aires. Facultad de Medicina; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Tripodi, Monica Noemi. Universidad de Buenos Aires; ArgentinaFil: Cohen, Laurent. Centre National de la Recherche Scientifique; Francia. Universite Pierre et Marie Curie; Francia. Institut National de la Santé et de la Recherche Médicale; FranciaFil: Sitt, Jacobo Diego. Centre National de la Recherche Scientifique; Francia. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Institut National de la Santé et de la Recherche Médicale; Francia. Universite Pierre et Marie Curie; FranciaFil: Trevisan, Marcos Alberto. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Física de Buenos Aires. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Física de Buenos Aires; Argentin

    Análisis acústico de la voz y realidades

    No full text
    El objetivo general del seminario es contribuir al conocimiento de las diferencias entre la voz normal y patológica en hablantes del español, especialmente de Buenos Aires, a través del análisis acústico con fines preventivos y diagnósticos. Básicamente, se presenta una mirada sobre la evaluación de la voz humana, que tanto puede contribuir a la teoría como a la práctica, evidenciando bondades y limitaciones de cada metodología para que no sean tomadas como dogmas. Se presenta una base de datos generada “ah hoc” para este estudio. Se detallan las características de la muestra y los análisis realizados tanto acústicos como perceptuales. Inicialmente, se exploran las medidas acústicas tradicionales mediante el uso de los sistemas PRAAT y ANAGRAF. La metodología propuesta evalúa y contrasta los resultados de ambos sistemas trabajando sobre el mismo corpus de datos. Se estudia la influencia de las variables de sexo y protocolo. Se reportan los valores de referencia para cada algoritmo y su confiabilidad. En segundo lugar, se estudian los valores obtenidos por análisis acústico no tan tradicional como son los Espectros Promedios de Largo Plazo. Se informa una nueva proporción que se estima resulta de utilidad en la práctica clínica diaria. En tercer lugar, se exploran técnicas de análisis acústicos nada tradicionales basados en el comportamiento global del sistema vocal. Se implementan los retratos de fase y los coeficientes de Lyapunov como nuevas alternativas cuya representación gráfica son de interpretación relativamente intuitiva. Finalmente, se correlacionan los resultados preliminares de la evaluación perceptual realizada por un grupo de oyentes entrenados sobre un subgrupo de estímulos seleccionados de la base de datos (representativos de los tipos de voces) con el análisis acústico de esos estímulos. Se concluye que utilizar métodos de análisis acústico para objetivar el comportamiento vocal implica definirse en un contínuo conceptual de la “voz”.Fil: Elisei, Natalia Gabriela. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Saavedra 15. Centro Interdisciplinario de Investigaciones en Psicología Matemática y Experimental Dr. Horacio J. A. Rimoldi; ArgentinaI Congreso Iberoamericano de Voz Profesional y Clínica VocalSantiago de ChileChileUniversidad de Chile. Facultad de Medicina. Escuela de Fonoaudiologí

    Evaluación perceptivo auditiva de voces degradas y su correlación con medidas acústicas

    Get PDF
    Resumen: El objetivo es determinar utilizando las mediciones acústicas, qué información es más relevante para el oyente al momento de categorizar el grado general de disfonía. Se eligieron 8 (4 voces femeninas y 4 voces masculinas. Cada emisión fue evaluada auditivo perceptualmente a través del item G de la escala GRBAS por 10 oyentes experimentados y acústicamente mediante medidas de aperiodicidad, ruido y caos. El estudio estadístico de análisis discriminante señala la importancia de GNE, Jit y Jitter_cc y Lyapunov como parámetros predictores del grado general de disfonía. La aplicación del método k-means evidencia que existen rasgos en los parámetros acústicos empleados que permiten agrupar objetivamente las voces estudiadas con 100% de precisión para la clase 0, 96% a la clase 2 y 79% a la clase 3. Un mayor número y variabilidad de casos se necesita a fin de verificar los resultados preliminares.Abstract: The goal is to determine using acoustic measurements, which information is the most relevant to listeners at the time of categorizing the overall degree of dysphonia. Eight voice signals were chosen (4 female voices and 4 male voices). Each voice was perceptually evaluated through the item G of GRBAS scale by 10 experienced listeners and acoustically by aperiodicity, noise and chaos measures. The statistical study by discriminant analysis shows the importance of GNE, Jit and Lyapunov Jitter_cc as parameters and predictors of overall degree of dysphonia. The application of the k-means evidence there are features in the acoustic parameters that allow us to objectively group the voices studied with 100% accuracy for class 0,96% for class 2 and 79% for class 3. A greater number and variability of cases are need to verify those preliminary results

    Base de datos de voz normal y patológica en hablantes del español de Buenos Aires

    No full text
    La descripción acústica y perceptual de patologías de la voz y el habla se observa en la mayoría de los trabajos presentados como soporte de las distintas estrategias de diagnóstico y tratamiento. Las descripciones cualitativas y cuantitativas consideradas como referencia normal no son aplicables a todas las lenguas por igual no sólo por tener diferencias esenciales en el sistema fonológico, semántico y gramatical sino por las variaciones fonéticas, de entonación y ritmo propios de una misma lengua. En la mayoría de los trabajos clínicos y científicos de esta especialidad o vinculados a las patologías de la voz se utiliza una base de datos comercial americana. En nuestro país han existido intentos de proyectos frustrados. El objetivo de este trabajo fue contribuir con el desarrollo de una base de datos inédita para el español de Buenos Aires que contemple la diversidad de los desórdenes vocales. Para el reclutamiento de los participantes se solicitó la colaboración al EBAP1 y EBAP2 y EBAN. La creación de esta base de datos involucró cuatro etapas: diseño, grabación, edición e implementación. En la etapa de diseño y grabación se registraron los hablantes del español de Buenos Aires, de ambos sexos con edades comprendidas entre 17 y 80 años; con y sin desórdenes vocales diagnosticado por fibrolaringoestroboscopía. Se excluyeron pacientes con problemas auditivos. En la etapa de edición se realizaron los ajustes necesarios a los archivos de sonido para su análisis acústico posterior. Para poder modelar, organizar y administrar la información de manera dinámica y eficiente, se definió un modelo relacional (base de datos relacional) implementado en Microsoft Access 2007. En este modelo todos los datos son almacenados en relaciones, y como cada relación es un conjunto de datos, el orden en el que estos se almacenan no tiene relevancia. Esto tiene la considerable ventaja de que es más fácil de entender y de utilizar por un usuario no experto. La información puede ser recuperada o almacenada por medio de consultas que ofrecen una amplia flexibilidad y poder para administrar la información. En este trabajo se ha presentado el diseño y construcción de la base de datos utilizada para implementar distinto tipo de investigaciones a posteriori. Se ha descripto la organización del corpus teniendo en cuenta las variables clásicas que pueden influenciar el material vocal como son: sexo, edad, grupo (normal o patológico) y diagnóstico médico. Este trabajo contribuye a generar una base de datos pasible de ser utilizada tanto por investigadores, profesionales afines al área así como graduados, residentes y alumnos.Fil: Elisei, Natalia Gabriela. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Saavedra 15. Centro Interdisciplinario de Investigaciones En Psicología Matemática y Experimental Dr. Horacio J.a Rimoldi; ArgentinaFil: Latourrette, Dora. Hospital Italiano; ArgentinaFil: Perez Ibañez, María Eugenia.Fil: Giusti, Santiago

    Aplicación de métodos acústicos lineales y no lineales en parálisis cordales unilaterales

    No full text
    A new methodology that combines traditional acoustic analysis and perceptual algorithms for nonlinear dynamics is presented. Specifically, Lyapunov coefficients applied to measure high disturbance’s voices. Vowel / a / isolated and sustained from 15 normal Buenos Aires Spanish speakers and 7 with unilateral paralysis of different sex and age were evaluated. The emissions were digitally recorded in an acoustic chamber with a dynamic vocal microphone and conversational speech intensity. For the measurement of the coefficients, Wolf algorithm (1985) modified by Giovanni (1999) was used. The traditional measures of perturbation jitter (Horii, 1975 and Milenkovic 1987) and perceptual scale GRBAS (Hirano, 1981) applied to evaluate the degree of severity of dysphonia. The values of Lyapunov coefficients and jitter in normal voices and paralysis were presented for comparison. The voices with highest alterations showed average Lyapunov exponents of 0.83 versus 0.46 in normal voices. The results and graphs obtained show the chaotic behavior of voice and demonstrate the clinical utility of measurement. The exponents differentiate control groups from group with paralysis. Se presenta una nueva metodología que combina el análisis acústico y perceptual tradicional con algoritmos de la dinámica no lineal. Específicamente, coeficientes de Lyapunov aplicados a la medición de voces con alta perturbación. Se evaluaron emisiones de la vocal /a/ aislada y sostenida en 15 hablantes del español de Buenos Aires normales y 7 con parálisis unilaterales, de diferente sexo y edad. Las emisiones se registraron digitalmente en una cámara acústica con un micrófono dinámico vocal de respuesta conocida y a una intensidad de habla conversacional.Para la medición de los coeficientes se empleó un algoritmo Wolf (1985) modificado por Giovanni (1999). Se utilizaron índices tradicionales de perturbación de jitter (Horii, 1975 y Milenkovic 1987) y se evaluó perceptualmente el grado de severidad de la disfonía con la escala GRBAS (Hirano,1981). Se presentan para su comparación los valores de los coeficientes de Lyapunov y Jitter en voces normales y con parálisis. Las mayores alteraciones muestran exponentes de Lyapunov promedio de 0,83 versus 0,46 en voces normales. Los resultados y los gráficos obtenidos verifican el comportamiento caótico de la voz y demuestran la utilidad clínica de la medición. Los exponentes distinguen el grupo control respecto del grupo con parálisis.

    Application of Acoustic Methods Linear and Non Linear in Chordal Unilateral Paralysis

    Get PDF
    Se presenta una nueva metodología que combina el análisis acústico y perceptual tradicional con algoritmos de la dinámica no lineal. Específicamente, coeficientes de Lyapunov aplicados a la medición de voces con alta perturbación. Se evaluaron emisiones de la vocal /a/ aislada y sostenida en 15 hablantes del español de Buenos Aires normales y 7 con parálisis unilaterales, de diferente sexo y edad. Las emisiones se registraron digitalmente en una cámara acústica con un micrófono dinámico vocal de respuesta conocida y a una intensidad de habla conversacional.Para la medición de los coeficientes se empleó un algoritmo Wolf (1985) modificado por Giovanni (1999). Se utilizaron índices tradicionales de perturbación de jitter (Horii, 1975 y Milenkovic 1987) y se evaluó perceptualmente el grado de severidad de la disfonía con la escala GRBAS (Hirano,1981). Se presentan para su comparación los valores de los coeficientes de Lyapunov y Jitter en voces normales y con parálisis. Las mayores alteraciones muestran exponentes de Lyapunov promedio de 0,83 versus 0,46 en voces normales. Los resultados y los gráficos obtenidos verifican el comportamiento caótico de la voz y demuestran la utilidad clínica de la medición. Los exponentes distinguen el grupo control respecto del grupo con parálisis.A new methodology that combines traditional acoustic analysis and perceptual algorithms for nonlinear dynamics is presented. Specifically, Lyapunov coefficients applied to measure high disturbance’s voices. Vowel / a / isolated and sustained from 15 normal Buenos Aires Spanish speakers and 7 with unilateral paralysis of different sex and age were evaluated. The emissions were digitally recorded in an acoustic chamber with a dynamic vocal microphone and conversational speech intensity. For the measurement of the coefficients, Wolf algorithm (1985) modified by Giovanni (1999) was used. The traditional measures of perturbation jitter (Horii, 1975 and Milenkovic 1987) and perceptual scale GRBAS (Hirano, 1981) applied to evaluate the degree of severity of dysphonia. The values of Lyapunov coefficients and jitter in normal voices and paralysis were presented for comparison. The voices with highest alterations showed average Lyapunov exponents of 0.83 versus 0.46 in normal voices. The results and graphs obtained show the chaotic behavior of voice and demonstrate the clinical utility of measurement. The exponents differentiate control groups from group with paralysis.Fil: Elisei, Natalia Gabriela. Consejo Nacional de Investigaciones Científicas y Técnicas. LaLaboratorio de Investigaciones Sensoriales; ArgentinaFil: Evin, Diego Alexis. Consejo Nacional de Investigaciones Científicas y Técnicas. LaLaboratorio de Investigaciones Sensoriales; ArgentinaFil: Gómez Fernández, Francisco Roberto. Consejo Nacional de Investigaciones Científicas y Técnicas. LaLaboratorio de Investigaciones Sensoriales; ArgentinaFil: Gurlekian, Jorge Alberto. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Houssay. Instituto de Inmunología, Genética y Metabolismo. Universidad de Buenos Aires. Facultad de Medicina. Instituto de Inmunología, Genética y Metabolismo; Argentin
    corecore